
TechnologieBemerkenswert
Sub Quadratics subQ: Sparse-Attention-Ansprüche unter der Lupe
subQ behauptet ein 12-Millionen-Token-Kontextfenster mit 52-facher FlashAttention-Effizienz – doch Benchmarks testen nur das 1M-Preview-Modell, mit abweichenden Zahlen.
6. Mai 20262 Min. Lesezeit